연구 자료

‘연구자료’는 <혐오시대, 인문학의 대응> 아젠다 연구의 전문적인 성과를 포함해서 국내외 주요 관련 연구 자료로 구성된다.

고위험 인공지능시스템의 차별에 관한 연구
  • 저자김일우
  • 발행처서강대학교 법학연구소
  • 발행연도2024
  • 작성언어국문
  • 키워드고위험 인공지능시스템, 편향과 차별, 인공지능 영향평가, 지능정보사
  • 자료형태논문
  • 수록면서강법률논총 제13권 제1호(통권 제29호) 7 - 45 (39page)
13

조회

지난 2023년 챗 GPT-4의 출현으로 인공지능은 뜨거운 화두가 되었으며, 사회의 다양한 영역에서 인공지능 기술이 도입되면서, 지능정보사회의 발전을 견인하고 있다.
예를 들어, 사적 영역에서는 채용 및 업무평가, 신용평가 등에서 인공지능 기술의 도입이 확산되고 있으며, 공적 영역에서는 인공지능을 활용한 자동적 행정처분이 도입되고, 법관의 재판 업무를 보조하는 인공지능 기술 등의 도입이 추진되고 있다.
이처럼, 인공지능시스템은 다양한 업무처리의 신속성과 효율성을 높이는 혁신적인 신기술로서 상당한 관심과 기대를 받고 있지만, 인공지능의 데이터와 알고리즘에 내재된 기존의 편향과 차별에 대한 우려도 적지 않다. 이와 같은 문제에 관하여 현재 국회에는 평등권 등 중대한 기본권 침해를 야기할 수 있는 고위험 인공지능의 규제에 관한 법률안이 다수 계류되어 있기는 하지만, 인공지능 차별을 예방하고, 대응하기 위한 실효성 있는 법적 근거의 마련이 절실하다. 특히, ‘고위험’ 영역에 활용되는 인공지능시스템의 정의를 분명하게 규정할 필요가 있다.
우선 이 글에서는 인공지능시스템의 잠재적 위험을 고려한 위험 기반 접근방식에 따라 기존의 편향과 차별을 야기하여 평등권을 침해할 수 있는 인공지능을 고위험 영역으로 분류한다. 이러한 고위험 인공지능은 온라인 플랫폼 등을 통해 일상에서 매일 활용되고 있다고 해도 과언이 아닐 정도로 활용도가 높으며, 다양한 의사결정 과정에서 적극적으로 활용되면서 평등권 침해에 밀접한 영향을 미치고 있다. 따라서 이와 같은 고위험 인공지능의 차별문제에 대해 헌법적 해명이 필요한 시점이라고 본다. 이 글에서는 고위험 인공지능시스템의 차별에 관한 구체적인 사례를 바탕으로 평등권 침해 문제점을 살펴보고, 외국의 인공지능 규범을 바탕으로 적절한 개선방안을 도출해 낼 것이다.
무엇보다도, 고위험 인공지능시스템의 활용으로 인한 불합리한 차별을 방지하기 위해서는 공정하고 신뢰할 수 있는 인공지능을 구현하기 위한 규범적 노력이 필요하다. 우선, 고위험 인공지능에 관한 비교법적 경향을 살펴보면 OECD와 UNESCO는 인공지능의 신뢰성과 공정성 원칙을 구현하기 위한 윤리원칙을 통해 인공지능이 준수해 나가야 할 방향성을 제시하였다. 또한, EU 「인공지능법안」과 미국 「알고리즘 책임법안」은 차별 등 기본권 침해를 야기할 우려가 큰 ‘고위험’ 영역을 구체적으로 정하고, 인공지능 사업자 및 사용자 등에 대한 구체적인 의무를 규정하고 있다. 이와 같은 외국의 법제는 인공지능의 편향과 차별로부터 기본권을 보호하는 데 참고할 부분이 적지 않다.
끝으로 고위험 인공지능시스템의 차별을 방지하기 위해서는 인공지능의 신뢰성과 투명성 원칙이 구현될 수 있어야 한다. 이를 위해서는 데이터와 알고리즘이 편향이나 부당한 차별을 내포하지 않도록 사업자와 사용자의 감독의무가 필요하며, 고위험 인공지능시스템의 운용기록에 대한 정보접근권 보장 및 인공지능 영향평가 도입을 진지하게 논의할 필요가 있다.

국문초록
Ⅰ. 들어가며
Ⅱ. 고위험 인공지능시스템의 출현과 차별 문제
Ⅲ. 고위험 인공지능시스템의 평등권 침해 사례
Ⅳ. 인공지능의 평등권 보호에 대한 외국의 법제 동향
Ⅴ. 고위험 인공지능시스템의 평등권 침해에 대한 개선방안
Ⅵ. 맺으며
참고문헌
Abstract

자료 출처: DBPia

아카이빙 정보